在弱监督学习(WSL)中,对从语义规则和特定于任务的预训练模型获得的嘈杂标签进行了训练。规则对任务的概括有限,并且需要大量的手动工作,而预培训模型仅适用于有限任务。在这项工作中,我们建议利用基于及时的方法作为弱来源,以获取未注释数据的嘈杂标签。我们表明,任务不合时宜的提示是可以推广的,可用于获取用于不同口语理解(SLU)任务的嘈杂标签,例如情感分类,不足的检测和情感分类。这些提示还可以更新以添加特定于任务的上下文,从而为设计特定于任务的提示提供灵活性。我们证明,基于及时的方法为上述SLU任务生成可靠的标签,因此可以用作通用弱源在没有标记数据的情况下训练弱监督模型(WSM)。我们提出的WSL管道对基于迅速的弱源进行了训练,在所有三个基准SLU数据集上,对零F1的零型学习和少量学习的其他竞争性低资源基准优于其他竞争性低资源基准。所提出的方法还优于传统的基于规则的WSL管道在宏F1上的表现超过5%。
translated by 谷歌翻译